首页> 外文OA文献 >Bi-directional LSTM Recurrent Neural Network for Chinese Word Segmentation
【2h】

Bi-directional LSTM Recurrent Neural Network for Chinese Word Segmentation

机译:中文单词的双向LsTm递归神经网络   分割

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recurrent neural network(RNN) has been broadly applied to natural languageprocessing(NLP) problems. This kind of neural network is designed for modelingsequential data and has been testified to be quite efficient in sequentialtagging tasks. In this paper, we propose to use bi-directional RNN with longshort-term memory(LSTM) units for Chinese word segmentation, which is a crucialpreprocess task for modeling Chinese sentences and articles. Classical methodsfocus on designing and combining hand-craft features from context, whereasbi-directional LSTM network(BLSTM) does not need any prior knowledge orpre-designing, and it is expert in keeping the contextual information in bothdirections. Experiment result shows that our approach gets state-of-the-artperformance in word segmentation on both traditional Chinese datasets andsimplified Chinese datasets.
机译:递归神经网络(RNN)已广泛应用于自然语言处理(NLP)问题。这种神经网络是为序列数据建模而设计的,已被证明在序列标记任务中非常有效。在本文中,我们建议使用带有长短期记忆(LSTM)单元的双向RNN进行中文分词,这是建模中文句子和文章的一项至关重要的预处理任务。经典方法着重于根据上下文设计和组合手工功能,而双向LSTM网络(BLSTM)不需要任何先验知识或预先设计,并且是在双向保持上下文信息的专家。实验结果表明,我们的方法在传统中文数据集和简体中文数据集的分词方面都具有最先进的性能。

著录项

  • 作者

    Yao, Yushi; Huang, Zheng;

  • 作者单位
  • 年度 2016
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号